home *** CD-ROM | disk | FTP | other *** search
/ CD ROM Paradise Collection 4 / CD ROM Paradise Collection 4 1995 Nov.iso / science / neumap3.zip / NUMP.ZP / NERM.HLP < prev    next >
Text File  |  1994-09-03  |  2KB  |  53 lines

  1. Backpropagation Program 
  2.  
  3. 1. Purpose;
  4.  a. Initialize a MLP using random initial weights
  5.  b. Train a MLP network using backpropagation
  6.  
  7. 2. Features;
  8.  a. Train with or without momentum factor
  9.  b. Train with or without batching (No simultaneous momentum and batching
  10.  c. Adaptive learning factor
  11.  d. Training MSE and error percentages are shown
  12.  e. Feature importance can be measured
  13.  f. Saves weights to disk
  14.  
  15. 3. Example Run of Backpropagation Program
  16.  a. Go to the "Batch Processing" option and press <ret>
  17.  b. Observe the parameter file with commented keyboard responses;
  18.  
  19.  
  20. gls.top              ! file storing network structure
  21. 2                    ! 1 for existing weights, 2 for random initial weights
  22. gls                  ! filename for training data 
  23. 0                    ! Enter number of patterns to read (0 for all patterns)
  24. 0, 0                 ! Enter numbers of 1st and last patterns to examine (0 0 for none)
  25. 2., 1.5              ! Enter desired standard deviation and mean of net functions
  26. 1                    ! Enter batch size (1 for no batching, 0 for full batching)
  27. .01, .98             ! learning factor, momentum term
  28. 20,  .001            ! Number of training iterations, threshold on MSE
  29. 4                    ! 1 to continue, 2 to change weights, 3 for a new data file, 4 to stop
  30. 1                    ! Enter 1 to perform feature selection, 0 else 
  31. gls.wts              ! filename for saving the weights
  32.  
  33.  
  34.     The program will read all patterns from the file gls, and train a MLP
  35.     using the network structure file gls.top, which is shown below.
  36.  
  37.            4
  38.            4           5           2           1
  39.            1           1           1
  40.  
  41.     The network will have 4 layers including 4 inputs, 7 hidden units
  42.     divided between 2 hidden layers, and 1 output. In addition, layers 2,
  43.     3, and 4 connect to all previous layers. Training will stop
  44.     after 20 iterations, or when the training MSE reaches .001 .
  45.     The final network weights will be stored in the file gls.wts. 
  46.  c. Exit the DOS editor and observe the program running
  47.  d. Go to the "Examine Program Output" option and press <ret>
  48.  e. You can run this program on your own data, simply by editing the 
  49.     parameter file in the "batch Run" option.
  50.  
  51.  
  52.  
  53.